Cloudflare Zero Trust × AI 〜Shadow AIからAIエージェント時代まで、押さえるべき統制ポイント〜
ーコラムー
2026年3月31日号
はじめに
生成AI(ChatGPT、Claude、Geminiなど)の業務利用は急速に広がり、今や「使うか/使わないか」ではなく、どう安全に使うかが企業にとっての現実的なテーマになっています。
一方で、利用実態を把握しきれないままAI活用が進む Shadow AI や、プロンプトへの機密情報入力による情報漏えいリスクは、無視できない課題です。
生成AIを一律に禁止すれば、現場の生産性や競争力を損なう可能性があります。求められるのは「止める」ことではなく、可視化 → 制御 → 保護を段階的に整え、AI活用を前提とした統制を構築することです。
Cloudflare Zero Trustは、この流れをAI利用の実態に即して設計しやすいサービスです。
|
観点 |
目的・考え方 |
Cloudflareの機能 / 仕組み |
|
1. まずは可視化 |
社内で「どのAIが」「どれくらい」「どう使われているか」を把握する |
Shadow AI Report (Zero Trust / Gateway) |
|
2. 利用制御 |
AIもSaaSと同じ感覚でアクセスを統制する |
Gateway(HTTPS, DNS)によるAIサービス制御 |
|
3. データ保護 |
AIへの入力内容(プロンプト)に機密情報を含めさせない |
AI Prompt Protection (DLP + AI特化検査) |
|
4. 人+AIエージェント統制 |
人だけでなく、AIによる自動通信も前提にする |
MCP Server Portals |
|
5. AI Gateway |
LLM/API通信を集約し、一元管理する |
AI Gateway |
|
6. AI信頼度評価 |
AIを「使ってよいか」を判断する材料を持つ |
AI信頼度スコア |
1. まずは可視化:Shadow AI Reportで「使われ方」を把握する
AI統制の第一歩は、現状を正確に知ることです。
Cloudflareでは、Gatewayを通過する通信をもとに、どのAIサービスが利用されているかを可視化し、組織として承認済みかどうかを含めて把握できます。さらに詳細な利用状況はログから確認できるため、利用実態の棚卸しやリスク把握に役立ちます。
重要なのは、いきなり使えなくするのではなく、まず現状を見える化することです。AIの利用実態をデータで示すことで、関係者と共通認識を持ち、なぜ統制が必要なのかを理解してもらいやすくなります。
2. 利用制御:SaaSと同じ感覚でAIアクセスをポリシー管理する
可視化の次は、利用制御です。
Cloudflare Gatewayのポリシーを用いることで、AIサービスを一般的なSaaSと同様の感覚で制御できます。例えば、
• 利用を認めるAIサービスと、利用を制限するAIサービスを分ける
• 特定のユーザー/グループのみ利用を許可する
• 承認済みAIのみを利用可能とする
といったルールを、既存のGateway運用の延長で適用できます。
AIを「特別な存在」として別管理にせず、WebやSaaSと同じ枠組みで扱える点は、運用負荷を抑えながら統制範囲を広げるうえで大きな利点です。
3. データ保護:AI Prompt Protectionで「入力内容」を守る
生成AIにおける最大のリスクは、通信先のサービス名そのものではなく、プロンプトに入力される内容です。
業務の流れで、個人情報、機密情報、ソースコード、APIキーなどが無意識に貼り付けられるケースは少なくありません。
CloudflareのAI Prompt Protectionは、DLPの仕組みを用いてプロンプト入力内容を検査し、事前定義された規則に基づいて制御します。検出対象には、個人情報(PII)、資格情報・秘密情報、ソースコード、顧客データ、財務情報などが含まれます。
一方で、柔軟に検出できる反面、意図しない文がヒットする可能性もあります。そのため導入初期は、全面的にブロックするのではなく、まずは検知ログを確認しながらルールを調整する、といった段階的な運用が現実的です。
4. 人だけでなく「AIエージェント」も視野に入れた統制へ
AI活用は、チャットで質問する形に留まりません。今後は、AIが業務システムに対してアクションを実行する「AIエージェント」の活用が進むと考えられています。
その文脈で注目されているのが MCP(Model Context Protocol) です。MCPは、AIからDBやファイルシステム、業務SaaSなどに対して、規格化された形で指示を伝えるための考え方・仕組みです。
このような世界では、「AIがどの業務システムに、どの範囲までアクセスできるのか」が新たな統制ポイントになります。Cloudflareは、MCPの活用を見据え、複数のMCPサーバーを集約・管理するためのポータル的な仕組みを提供しており、MCPの前段に制御点を設ける設計が可能です。
5. AI Gateway:AIのAPI通信を集約し、可視化・制御する
AIエージェントの活用が進むにつれ、AI関連の通信はユーザーのブラウザ操作ではなく、アプリケーションやエージェントによる API呼び出しが中心になります。
そこで重要になるのが AI Gatewayです。
AI Gatewayは、AIエージェントやアプリケーションからのAI API通信を集約し、利用状況の可視化、レート制限、プロバイダ障害時のルーティング、マルチLLM対応、Guardrails、DLPなどを一元的に管理できる仕組みです。
これにより、「人の操作」だけでなく、「AIが自律的に行う通信」も含めて統制できるようになります。
6. AI信頼度スコア:AIを評価するための判断材料
AI統制では、「どのAIなら業務利用を許可できるのか」という判断も重要です。
Cloudflareでは、生成AI特有の観点(プロンプトを学習に利用するか、Model Cardの有無など)をもとに、AI信頼度スコアという評価指標を提示しています。
このスコアは、AIサービスの選定や利用可否を判断する際の参考指標として活用する事ができます。
「なぜこのAIは許可するのか/制限するのか」を説明する材料として使える点は、情シスにとって実務上のメリットと言えます。
まとめ:AIを前提にZero Trustをアップデートする
AIの業務利用が当たり前になり、さらにAIエージェントによる業務実行が視野に入る中、情シス・セキュリティに求められる役割は、AIを止めることではなく、安全に使える状態を整えることです。
Cloudflare Zero Trustは、
• Shadow AIの可視化
• AIアクセスのポリシー制御
• プロンプト入力内容の保護
• AI GatewayによるAPI通信の集約・管理
• AIサービスを評価するための指標提供
といった要素を組み合わせ、AI活用を前提とした統制を段階的に構築しやすいアプローチを提供します。
AIを活用する時代のZero Trustは、守るための仕組みから、安心してAIを使い続けるための基盤へと進化しています。
執筆者:
三井情報株式会社
ソリューション技術グループ ソリューション第二技術本部 インフラ第一技術部第二技術室
コラム一覧はこちら